从传统上讲,放射科医生准备诊断笔记,并与转录师分享。然后,抄写员准备了指参考票据的初步格式报告,最后,放射科医生审查报告,纠正错误并签字。该工作流程在报告中导致重大延迟和错误。在当前的研究工作中,我们专注于NLP技术(例如信息提取(IE)和域特异性知识图(KG))的应用,以自动从放射科医生的命令中生成放射学报告。本文通过从现有的自由文本放射学报告的大型语料库中提取信息来重点介绍每个器官的KG构造。我们开发了一种信息提取管道,将基于规则的,基于模式和基于词典的技术与词汇语义特征相结合,以提取实体和关系。可以从kgs访问简化的丢失信息,以产生病理描述,并因此是放射学报告。使用语义相似性指标评估了生成的病理描​​述,该指标与金标准病理描述显示了97%的相似性。另外,我们的分析表明,我们的IE模块的性能要比放射学域的开放式工具更好。此外,我们还包括放射科医生的手动定性分析,该分析表明80-85%的生成报告是正确编写的,其余部分是正确的。
translated by 谷歌翻译
在商业航空域中,有大量文件,例如事故报告(NTSB,ASRS)和监管指令(ADS)。有必要有效地访问这些多样化的存储库,以便在航空业中的服务需求,例如维护,合规性和安全性。在本文中,我们提出了一个基于深度学习的知识图(kg)基于深度学习(DL)的问题答案(QA)航空安全系统。我们从飞机事故报告中构建了知识图,并向研究人员社区贡献了这一资源。该资源的功效由上述质量保证系统测试和证明。根据上述文档构建的自然语言查询将转换为SPARQL(RDF图数据库的接口语言)查询并回答。在DL方面,我们有两个不同的质量检查模型:(i)BERT QA,它是通道检索(基于句子的)和问题答案(基于BERT)的管道,以及(ii)最近发布的GPT-3。我们根据事故报告创建的一系列查询评估系统。我们组合的QA系统在GPT-3上的准确性增长了9.3%,比Bert QA增加了40.3%。因此,我们推断出KG-DL的性能比单一表现更好。
translated by 谷歌翻译
Wordnets是丰富的词典语义资源。链接的Wordnets是Wordnets的扩展,哪个在不同语言的Wordnets中链接类似的概念。这种资源在许多自然语言处理(NLP)应用中非常有用,主要是基于知识的方法。在这种方法中,这些资源被视为金标准/甲骨文。因此,这些资源保持正确的信息至关重要。因此,他们是由人类专家创造的。但是,多种语言的人类专家很难通过。因此,社区将受益于分享此类手动创造的资源。在本文中,我们释放了与Princeton Wordnet相关联的18个印度语言Wordnets的映射。我们认为,此类资源的可用性将对这些语言的NLP中的进展直接影响。
translated by 谷歌翻译
Wordnets是丰富的词典语义资源。链接的Wordnets是Wordnets的扩展,哪个在不同语言的Wordnets中链接类似的概念。这种资源在许多自然语言处理(NLP)应用中非常有用,主要是基于知识的方法。在这种方法中,这些资源被视为金标准/甲骨文。因此,这些资源保持正确的信息至关重要。因此,它们是由人类专家创建的。但是,这些资源的手动维护是一种繁琐而昂贵的事情。因此,可以帮助专家的技术是可取的。在本文中,我们提出了一种方法来链接Wordnets。鉴于源语言的SYNSET,该方法返回人类专家可以选择正确的目标语言中的潜在候选拟合序列列表。我们的技术能够在排名前10名列表中检索赢家SYNSET,占所有拟合的60%和70%的名词Synsets。
translated by 谷歌翻译
本文介绍了称为“文本历史工具”的数字工具的其他方面。我们描述了其各种突出特征,特别参考其特征,可能有助于理智学家在文本上数字化评论和子评论。该工具通过各种时间级捕获文本的历史演进,以及从各种类型的相关文本中剔除的相互关联数据。我们使用k \ = a \'sik \ = avrtti(kv)的文本作为示例文本,并且在照相专家的帮助下,我们将评论数字化为我们提供的评论。我们将NY \ = ASA(NY)数字化,Padama \〜njar \ = i(PM)和子注释称为Tantraprad \ = IPA(TP)和Makaranda(MK)。我们将每次评论和子评论划分为功能单位,并描述了功能单元划分背后的方法和动机。基于使用在工具中输入的数据的距离方法,我们的功能单元部门有助于为文本生成更准确的系统发育树。
translated by 谷歌翻译
自动同源检测(ACD)是一个具有挑战性的任务,用于帮助像机器翻译,信息检索和计算系统发育等这样的NLP应用。身份不明的同源对可能对这些应用构成挑战并导致性能的退化。在本文中,我们检测到Hindi的十个印度语言中的同源词对,并使用深度学习方法来预测单词对是否是同源的。我们将IndowordNet识别为基于基于正交相似性的方法和使用从其所获得的数据的基于正交相似性的方法和列车神经网络模型来检测同源字对的潜在资源。我们将平行的Corpora标识为另一个潜在资源,并对它们进行相同的实验。我们还通过进一步的实验验证Wordnets的贡献,并报告高达26%的提高性能。我们讨论了与密切相关的印度语言中的同源检测的细微差别,并将检测到的同源名单作为数据集发布。我们还观察到的行为,在某种程度上不相关的印度语文对,并在其中释放检测到的同源名单。
translated by 谷歌翻译
编码单词语义属性的密集词向量或“Word Embeddings”现在已成为机器翻译(MT),问题应答(QA),字感消解(WSD)和信息检索(IR)中的NLP任务的积分。在本文中,我们使用各种现有方法为14个印度语言创建多个单词嵌入。我们将这些嵌入的嵌入式为所有这些语言,萨姆萨姆,孟加拉,古吉拉蒂,印地教派,kannada,konkani,malayalam,marathi,尼泊尔,odiya,punjabi,梵语,泰米尔和泰雅古士在一个单一的存储库中。相对较新的方法,强调迎合上下文(BERT,ELMO等),表明了显着的改进,但需要大量资源来产生可用模型。我们释放使用上下文和非上下文方法生成的预训练嵌入。我们还使用Muse和XLM来培训所有上述语言的交叉语言嵌入。为了展示我们嵌入的效果,我们为所有这些语言评估了我们对XPOS,UPOS和NER任务的嵌入模型。我们使用8种不同的方法释放了436个型号。我们希望他们对资源受限的印度语言NLP有用。本文的标题是指最初在1924年出版的福斯特的着名小说“一段是印度”。
translated by 谷歌翻译
凝视行为已被用作收集认知信息多年的一种方式。在本文中,我们讨论了凝视行为在解决自然语言处理(NLP)中解决不同任务的情况,而无需在测试时间录制它。这是因为凝视行为的收集是一种昂贵的任务,无论是时间和金钱。因此,在本文中,我们专注于对减轻在运行时录制凝视行为的需要的研究。我们还提到了多种语言的不同眼踪语言,目前可用,可用于自然语言处理。我们通过在领域教育中讨论应用程序来结束我们的论文 - 以及学习凝视行为如何有助于解决复杂词识别和自动论文分级的任务。
translated by 谷歌翻译
同源存在于不同语言的同一文本的多种变体中(例如,德语“Hund”和“猎犬”中的英语意味着“狗”)。它们对各种自然语言处理(NLP)应用构成了挑战,例如机器翻译,交叉语音歧义,计算系统发育和信息检索。解决这一挑战的可能解决方案是识别跨语言对的同源。在本文中,我们描述了为十二个印度语言的两种同源数据集,即梵语,印地文,issamese,奥里亚,kannada,古吉拉蒂,泰米尔,泰卢固,旁遮普,孟加拉,马拉萨和马拉雅拉姆。我们将同源数据从印度语态语言字典数字化,并利用链接的印度语言Wordnets来生成同源集。此外,我们使用Wordnet数据来创建一个False Friends'DataSet for Eleven Language对。我们还使用以前可用的基线同源检测方法评估我们数据集的功效。我们还借助词汇表进行了手动评估,并通过本文释放策划的金标准数据集。
translated by 谷歌翻译
同源是不同语言的同一词汇形式的变体;例如,英语中的“Fonema”和英语中的“音素”是同源的,这两者都意味着'声音单位'。在任何两种语言中自动检测同源的任务可以帮助下游的NLP任务,例如交叉信息检索,计算系统发育和机器翻译。在本文中,我们展示了使用跨语言词嵌入来检测十四印度语言中的同源。我们的方法介绍了从知识图中使用上下文,以生成用于同源检测的改进的特征表示。然后,我们评估了我们对神经电机翻译(NMT)对神经电机翻译(NMT)的影响,作为下游任务。我们评估我们的方法,以检测十二个印度语言的具有挑战性的数据集的方法,即梵语,印地文,issamese,奥里亚,kannada,古吉拉蒂,泰米尔,Telugu,Punjabi,Bengali,Marathi和Malayalam。此外,我们为另外两种印度语言,Konkani和Nepali创建评估数据集。我们在F评分方面,观察到高达18%的分数,以获得同源检测。此外,我们观察到使用我们的方法提取的同源有助于提高NMT质量高达2.76 BLEU。我们还公开发布我们的代码,新建的数据集和交叉语言模型。
translated by 谷歌翻译